JORNALISMO E INTELIGÊNCIA (AINDA MAIS) ARTIFICIAL

A Federação Europeia de Jornalistas discutiu as implicações da Inteligência Artificial (IA), desde os desafios e perigos que coloca às oportunidades que poderá apresentar e a forma como os jornalistas podem lidar com esta nova realidade. Foi claro que é preciso regulamentação, de preferência sob um chapéu mais largo, como a União Europeia, e que a IA tem de ser uma ferramenta, não uma força laboral que substitua os humanos.

A reunião de Especialistas de Grupo da Federação Europeia de Jornalistas (FEJ) juntou cerca de 40 jornalistas e representantes de sindicatos de 25 países diferentes, em Viena, na Áustria. Foram discutidas questões relativas às cinco áreas em que se divide o trabalho dos representantes da FEJ, como é o caso do Sindicato dos Jornalistas, desde direitos de autor, questões de género, direitos laborais, freelancers e televisão. Comum a todos os grupos, a Inteligência Artificial acabou por se impor como o tema dominante do encontro.

“A inteligência artificial é uma ferramenta, não uma força de trabalho”. A ideia foi trazida ao encontro por Florian Matscheko, director de projectos digitais da ORF. O canal de televisão pública austríaco usa a IA para transcrever entrevistas, sumarizar e traduzir textos, mas sempre com supervisão biológica. “Os humanos decidem, a IA faz”, explicou Matscheko, sustentando que nenhuma decisão é tomada sem supervisão de um jornalista ou de um técnico humano.

Na ORF, não se rejeita a AI por princípio, aproveitam-se as ferramentas para melhorar os trabalhos, para fazer melhor e mais depressa, liberando recursos humanos e tempo para programar e pensar melhor o jornalismo. “Quem usa os programas de melhoria de imagem são os editores de imagem; no som, os editores de som; no vídeo, os de vídeo”, revelou Florian Matscheko. “Não vamos substituir humanos por máquinas. A decisão será sempre dos humanos”, acrescentou o director de projectos digitais da ORF.

Na APA, a agência de notícias austríaca, o sentimento é similar. “As máquinas não escrevem histórias mas são usadas como ferramentas para mudar textos para diferentes formatos”, especialmente para os adaptar às diferentes redes sociais, contou Katharina Schell, directora-adjunta para a inovação, num encontro com parte dos jornalistas e sindicalistas presentes no seminário. “Inteligência artificial no jornalismo não significa que a IA faça jornalismo”, defende a APA.

A agência de notícias austríaca usa a IA desde as eleições de 2019, para recolher e tratar dados, e até fazer sumários dos resultados em municípios mais pequenos, que nunca seriam noticiados se os números tivesse de ser tratados manualmente. Durante a crise da covid-19 a Inteligência Artificial foi também uma ferramenta usada para recolher, tratar e sintetizar os dados diários de casos, internamentos e vítimas. “São ferramentas que ajudam os jornalistas a extrair grandes quantidades da dados, que de outra forma precisariam de muitas horas e estavam mais sujeitas ao erro”, explica Katharina Schell.

Mas a IA tem problemas identificados, em vários níveis. A começar, as chamadas alucinações, em que programas como o ChatGPT, lançado em Novembro de 2022, que por vezes inventa citações e até fontes. Matscheko identificou ainda outros problemas, como as “poucas ou nenhumas opções para corrigir os resultados” e a tentação de substituir humanos pelas máquinas. Além disso, de cada vez que se pede ou pergunta algo a um “bot”, estamos a fornecer dados, gratuitamente, alertou.

Segundo a directora-adjunta de inovação da APA, o ChatGPT não é uma ameaça porque “não cumpre os critérios de qualidade” da agência de notícias austríaca, de prestar informação independente, baseada em factos, transparente e de confiança. A agência austríaca foi das primeiras a definir linhas de orientação para regular o uso da IA na empresa, sempre com a perspectiva de que é uma ferramenta de trabalho. Nada mais.

A ORF está a definir linhas orientação face à IA, mas Matscheko não é muito favorável a “guidelines”. Defende a necessidade de deixar o processo fermentar antes e é favorável a criar regulamentação, de preferência a nível europeu, um chapéu de aba larga que garanta a conformidade e o respeito da IA em três áreas específicas: ética e deontologia, direitos dos trabalhadores e direitos de autor.

A necessidade de linhas de orientação foi enfatizada por Deniz Wagner, conselheira do departamento de Liberdade de Imprensa da OSCE. Participando via zoom, sublinhou os perigos da IA para a democracia, nomeadamente em questões de vigilância, tanto a jornalistas como a organizações não governamentais.

“Os media, assim como a democracia, não podem ficar presos ao passado. Temos de fazer mais do que apenas reagir”, disse Deniz Wagner. “Temos de tratar de providenciar uma ideia de como deve ser um ecossistema digital saudável”, argumentou.

O uso, bem regulamentado e definido, da IA nas redacções pode facilitar o trabalho dos jornalistas. Com menos tarefas repetitivas para fazer, poderá haver mais tempo para ir para o terreno, para investigar, para dar mais e melhor informação ao público, reforçando a importância do papel do jornalismo e dos jornalistas, fundamental para uma democracia saudável.

Embora a IA possa ser usada para o bem, há já exemplos do que não interessa. Na Alemanha, o Axel Springer despediu jornalistas e apostou em programas automatizados de IA, os “bots”, para fazer “notícias”. Não é caso único, mas um dos mais evidentes e dramáticos, que alerta para os desafios que a IA coloca ao mercado laboral.

No grupo de discussão sobre direitos laborais (LAREG), em que participou o Sindicado dos Jornalistas de Portugal, o impacto da IA no mercado de trabalho jornalístico foi o tema central. “Como vamos garantir que as pessoas que já trabalham podem usar estas ferramentas de uma forma correta e como vamos manter os empregos daqui a cinco anos”, questionou Allan Boye Thulstrup, do sindicato de jornalistas da Dinamarca, país que está a avaliar que ferramentas podem ser úteis e usadas pelos jornalistas, na senda daquilo que fazem a APA e a ORF, na Áustria.

A formação, especialmente para jornalistas no activo, é fundamental para fazer face ao desafio da IA e aos impactos que terá no mercado de trabalho, e deve ser apoiada pelas empresas e pelos Estados. Uma forma de proteger os trabalhadores e garantir que estão envolvidos na discussão é incluir os desafios e os perigos da IA na renegociação de contratos colectivos de trabalho.

Num escopo mais vasto, a própria União Europeia deve contribuir para a previsível necessidade e reconfiguração laboral que vai ser necessária para muitos jornalistas na Europa e no mundo. Taxar as máquinas, como defende Florian Matscheko, é outra das formas de financiar a formação dos jornalistas que poderão perder o emprego ou ter de aprender a lidar com a IA.

O pagamento de direitos de autor, ainda incipiente em muitos dos países, é outra das questões colocadas pela IA. “Licenciamento é importante para os jornalistas, para serem mais vistos, mais lidos e receberem por isso”, argumentou Mogens Blicher Bjerrgard, do sindicato dinamarquês. Especialista em direitos de autor e um dos membros mais ativos do AREG, ou Authors Rights European Group, Mogens acusou as empresas de AI de “usar conteúdos originais para ganhar dinheiro” sem compensar os autores.

“A minha proposta, para já, é que os jornalistas garantam direitos de exclusividade, de forma a poderem proibir o uso de conteúdos originais”. Há casos de empresas de media na Europa que não permitem o uso de conteúdos produzidos pelos jornalistas que empregam, mas está por definir um modelo que permita uma “pagamento justo” pelo material usado pelas empresas de IA, por exemplo no treino das máquinas já feito, e no que continuarão a usar para aperfeiçoar os modelos e ganhar dinheiro com a informação produzida por autores humanos.

O uso de um “modelo quantitativo”, similar ao que se faz na indústria da música, é uma das opções, mas que obriga as empresas da IA a começar a rastrear e a revelar o uso que fazem de conteúdos de media. Mais simples, pelos menos de implementar, seria negociar um montante global a pagar pelo uso de material jornalístico.

Independentemente do modelo a escolher, há um trabalho muito importante a fazer antes. “Jornalistas, escritores, artistas, técnicos de audiovisual, todos os criativos devem estar unidos e colaborar, evitando assim serem tragados pelas grandes companhias tecnológicas”, disse Mogens. “Temos de trabalhar juntos”, argumentou.

Em termos éticos, a Inteligência Artificial levanta questões até sobre os próprios códigos deontológicos e o risco, ou a necessidade, que teremos de os alterar ou actualizar. “A regulação é muito importante para o jornalismo”, advoga o editor de inovação da ORF, que sublinha a necessidade de regulação social e política desta nova ferramenta, que não deve passar disso.

“A Inteligência Artificial não decide”. Esta é a principal questão quando se fala de um uso eticamente correto da IA. E é também correta do ponto de vista laboral, porque ao dar, em exclusivo, aos humanos a opção de verificar, controlar, de ter a última palavra, estaremos a defender postos de trabalho.

Entre outras questões a definir, o uso de IA deve ser declarado e os trabalhos jornalísticos que recorrem a IA de alguma forma devem explicitar esse uso. “Jornalistas vão ter de decidir quanto de autonomia estão dispostos a dar à máquina”, defende Katharina Schell. da APA,

A solução é fácil, como ideia. “Direitos humanos e ética são fundamentais e têm de ser trabalhados nas redacções e na sociedade de uma forma geral”, argumenta Mogens Blicher Bjerrgard.

Folha 8 com Sindicato dos Jornalistas de Portugal

Artigos Relacionados

Leave a Comment